1
Vượt qua Ngưỡng Kiến thức: Tại sao các Mô hình Ngôn ngữ Lớn Cần Dữ liệu Bên ngoài
AI011Lesson 6
00:00

Vượt qua Ngưỡng Kiến thức

Các Mô hình Ngôn ngữ Lớn rất mạnh mẽ, nhưng lại bị hạn chế cơ bản: ngưỡng Kiến thức. Để xây dựng các hệ thống AI đáng tin cậy, chúng ta cần lấp đầy khoảng cách giữa dữ liệu huấn luyện tĩnh và thông tin thực tế động.

1. Vấn đề Ngưỡng Kiến thức (Tại sao)

Các mô hình LLM được huấn luyện trên các tập dữ liệu khổng lồ nhưng tĩnh với ngày kết thúc cố định (ví dụ: giới hạn tháng 9 năm 2021 của GPT-4). Do đó, các mô hình không thể trả lời các câu hỏi về sự kiện gần đây, cập nhật phần mềm hoặc dữ liệu riêng tư được tạo ra sau thời kỳ huấn luyện của chúng.

2. Ảo giác so với Thực tế (Tại sao)

Khi được hỏi về dữ liệu chưa biết hoặc vượt quá ngưỡng, các mô hình thường ảo giác—tạo ra những sự thật có vẻ hợp lý nhưng hoàn toàn sai để đáp ứng yêu cầu. Giải pháp là căn cứ: cung cấp bối cảnh xác thực và thời gian thực từ một cơ sở tri thức bên ngoài trước khi mô hình tạo ra câu trả lời.

3. RAG so với Tinh chỉnh (Làm thế nào)

  • Tinh chỉnh: Việc cập nhật trọng số nội bộ của mô hình tốn kém về mặt tính toán, chậm và dẫn đến kiến thức tĩnh, nhanh chóng trở nên lỗi thời.
  • RAG (Tăng cường sinh bằng truy xuất): Rất tiết kiệm chi phí. Nó truy xuất thông tin liên quan ngay lập tức và chèn vào prompt, đảm bảo dữ liệu luôn mới nhất và cho phép cập nhật dễ dàng cơ sở tri thức mà không cần huấn luyện lại.
Khoảng trống Dữ liệu Riêng tư
Các mô hình LLM không có quyền truy cập vào tài liệu nội bộ công ty, báo cáo tài chính hoặc các tài liệu mật, trừ khi chúng được tích hợp rõ ràng thông qua một pipeline truy xuất.
grounding_check.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why is Retrieval Augmented Generation (RAG) preferred over fine-tuning for updating an LLM's knowledge of daily news?
Fine-tuning prevents hallucinations entirely.
RAG is more cost-effective and provides up-to-date, verifiable context.
RAG permanently alters the model's internal weights.
Fine-tuning is faster to execute on a daily basis.
Question 2
What term describes an LLM's tendency to invent facts when it lacks information?
Grounding
Embedding
Hallucination
Tokenization
Challenge: Building a Support Bot
Apply RAG concepts to a real-world scenario.
You are building a support bot for a new product released today. The LLM you are using was trained two years ago.
Product Manual
Task 1
Identify the first step in the RAG pipeline to get the product manual into the system so the LLM can search it.
Solution:
Preprocessing (Cleaning and chunking the manual text into smaller, searchable segments before embedding).
Task 2
Define a "System Message" that forces the LLM to only use the provided documents and prevents hallucination.
Solution:
"Answer only using the provided context. If the answer is not in the context, state that you do not know."